除了在许多视觉任务中实现高性能外,由于模式之间的冗余信息的可用性,多模式模型对单源故障有预期。在本文中,我们研究了多模式神经网络对单个模态上最坏情况(即对抗性)扰动的鲁棒性。我们首先表明,标准的多模式融合模型容易受到单源对手的影响:对任何单个模式的攻击都可以从多个不受干扰的方式中克服正确的信息,并导致模型失败。这种令人惊讶的脆弱性构成了各种多模式任务,因此需要解决方案。在这一发现的激励下,我们提出了一种对抗性强大的融合策略,该策略训练模型以比较来自所有输入源的信息,检测与其他模式相比,在扰动模式中的不一致之处,并且仅允许来自不受干扰的方式的信息通过。我们的方法在单源鲁棒性方面的最先进方法显着提高,在行动识别方面获得了7.8-25.2%的收益,对象检测的19.7-48.2%和1.6-6.7%的情感分析,而没有降低绩效绩效,在不受干扰的(即清洁)数据上。
translated by 谷歌翻译
标签噪声在大型现实世界数据集中很常见,其存在会损害深神网络的训练过程。尽管几项工作集中在解决此问题的培训策略上,但很少有研究评估数据增强作为培训深神经网络的设计选择。在这项工作中,我们分析了使用不同数据增强的模型鲁棒性及其在嘈杂标签的存在下对培训的改进。我们评估了数据集MNIST,CIFAR-10,CIFAR-100和现实世界数据集Clothing1M的最新和经典数据增强策略,具有不同级别的合成噪声。我们使用精度度量评估方法。结果表明,与基线相比,适当的数据增强可以大大提高模型的稳健性,可将相对最佳测试准确性的177.84%提高到177.84%的相对最佳测试准确性,而无需增强,并且随着绝对值增加了6%,而该基线的绝对值增加了6%最先进的Dividemix培训策略。
translated by 谷歌翻译
在罕见的时间条件下(例如,公共假期,学校假期等)预测旅行时间是由于历史数据的限制而构成的挑战。如果所有可用的话,历史数据通常会形成异质时间序列,这是由于长时间其他变化的可能性很高(例如,道路工程,引入的交通镇定计划等)。这在城市和郊区特别突出。我们提出了一个用于编码罕见时间条件的矢量空间模型,该模型允许在不同时间条件上进行连贯的表示。当利用矢量空间编码来表示时间设置时,我们显示出对不同基线的旅行时间预测的性能提高。
translated by 谷歌翻译
TensorFlow GNN(TF-GNN)是张量曲线的图形神经网络的可扩展库。它是从自下而上设计的,以支持当今信息生态系统中发生的丰富的异质图数据。Google的许多生产模型都使用TF-GNN,最近已作为开源项目发布。在本文中,我们描述了TF-GNN数据模型,其KERAS建模API以及相关功能,例如图形采样,分布式训练和加速器支持。
translated by 谷歌翻译
我们调查Poncelet $ N $ -GON系列的属性,刻在抛物线中,并围绕着焦点中心的圆圈。这些可以被认为是相对于恒定围绕的双重家庭的极性图像,使得双面载体含有圆形。我们派生了几个$ n $的闭合条件,并描述了大核,圆形,圆形和点,基因座等好奇的欧几里德属性,以及(也许是新的)保守量。
translated by 谷歌翻译
对于网络入侵检测系统(NIDS)使用机器学习(ML)的大多数研究都使用良好的数据集,例如KDD-CUP99,NSL-KDD,UNSW-NB15和Cicids-2017。在这种情况下,探讨了机器学习技术的可能性,旨在与已发表的基线(以模型为中心的方法)相比的度量改进。但是,这些数据集将一些限制呈现为老化,使得将基于ML的解决方案转换为现实世界的应用程序,这使得它不可行。本文提出了一种系统以系统为中心的方法来解决NIDS研究的当前限制,特别是数据集。此方法生成由最近的网络流量和攻击组成的NID数据集,其中包含设计的标签过程。
translated by 谷歌翻译
空间碎片是太空勘探中的一个主要问题。国际机构不断监控大量的轨道对象数据库,并以结合数据消息的形式发出警告。卫星运营商的一个重要问题是估计新信息将到达,以便他们可以及时反应,但避免卫星演习。我们提出了一个统计学习模型的消息到达过程,允许我们回答两个重要问题:(1)下一个指定的时间间隔有任何新的消息吗?(2)下一条消息到达的不确定性何时到达?我们的贝叶斯泊松过程模型的问题(2)的平均预测误差小于在50K关闭遇到事件的测试集中超过4小时的基线。
translated by 谷歌翻译
共享的移动服务需要准确的需求模型来有效的服务计划。一方面,对需求的全部概率分布进行建模是有利的,因为整个不确定性结构保留了有价值的决策信息。另一方面,经常通过使用服务本身来观察需求,以便对观察结果进行审查,因为它们本质上受到可用供应的限制。自1980年代以来,在这种条件下,对审查的分位数回归模型进行了各种审查的作品。此外,在过去的二十年中,有几篇论文提出了通过神经网络灵活实施这些模型的论文。但是,当前工作中的模型会单独估算分位数,从而产生了计算开销,并忽略了分位数之间的宝贵关系。我们通过扩展当前审查的分位数回归模型一次以一次学习多个分位数来解决这一差距,并将其应用于丹麦哥本哈根大都会区的两个共享移动性提供商的合成基线数据集和数据集。结果表明,我们的扩展模型在不损害模型性能的情况下产生的分位数较少,计算开销较少。
translated by 谷歌翻译
深度神经网络模型对有限的标签噪声非常强大,但是它们在高噪声率问题中记住嘈杂标签的能力仍然是一个空旷的问题。最具竞争力的嘈杂标签学习算法依赖于一个2阶段的过程,其中包括无监督的学习,将培训样本分类为清洁或嘈杂,然后是半监督的学习,将经验仿生风险(EVR)最小化,该学习使用标记的集合制成的集合。样品被归类为干净,并提供了一个未标记的样品,该样品被分类为嘈杂。在本文中,我们假设这种2阶段嘈杂标签的学习方法的概括取决于无监督分类器的精度以及训练设置的大小以最大程度地减少EVR。我们从经验上验证了这两个假设,并提出了新的2阶段嘈杂标签训练算法longRemix。我们在嘈杂的标签基准CIFAR-10,CIFAR-100,Webvision,Clotsing1m和Food101-N上测试Longremix。结果表明,我们的Longremix比竞争方法更好,尤其是在高标签噪声问题中。此外,我们的方法在大多数数据集中都能达到最先进的性能。该代码可在https://github.com/filipe-research/longremix上获得。
translated by 谷歌翻译
深度学习模型的培训通常需要大量的注释数据,以实现有效的收敛和泛化。然而,获得高质量的注释是一种借鉴和昂贵的过程,因为需要专家放射科学家进行标签任务。在医学图像分析中的半监督学习的研究是至关重要的,因为获得未标记的图像的昂贵比以获得专家放射科医师标记的图像更便宜。基本上,半监督方法利用大量未标记的数据来实现比仅使用小组标记图像更好的训练收敛和泛化。在本文中,我们提出了自我监督的平均教师进行半监督(S $ ^ 2 $ MTS $ ^ 2 $)学习,将自我监督的卑鄙教师预训练与半监督微调相结合。 S $ ^ 2 $ MTS $ ^ 2 $的主要创新是基于联合对比学习的自我监督的平均教师预培训,它使用无限数量的正查询和关键特征来改善平均值 - 老师代表。然后使用具有半监督学习的指数移动平均教师框架进行微调。我们从胸部X-ray14和Chexpert的多标签分类问题上验证了S $ ^ 2 $ MTS $ ^ 2 $,以及iC2018的多级分类,在那里我们表明它优于前一个SOTA半监督的学习方法通过大幅度。
translated by 谷歌翻译